9,047 research outputs found

    Influence of different polishing materials in the material removal of steel samples

    Get PDF
    The quality of injection moulded polymer optic parts depends on the surface finish of the respective mould. In order to improve and control the surface finish of the mould it is important to be able to keep the material removal constant during the polishing process of these moulds. This will provide a tactical material removal therefore allowing a controlled correction of the mould’s surface geometry. The aim of this work is to study the influence of different polishing materials in the material removal rate and its reproducibility during the polishing process of hardened steel. Different polyurethane polishing materials with different fillers were tested. It was observed that the filler material of the polyurethane is crucial in order to obtain constant and reproducible results. Experiments were carried out with an industrial robot and the material removal’s depth value was compared

    Coping with verbal and social bullying in middle school

    Get PDF
    Becoming a victim of verbal and social bullying in middle school can lead to illness, psychological stress, and maladjustment. The coping strategies that students utilize when they are bullied may influence the likelihood and severity of these negative effects. In this study, we examined the predictions made by students in two middle schools about the ways that they would cope with becoming a victim of verbal and social bullying. We also analyzed influences for coping strategies and student willingness to seek help with bullying at school. The results show that middle school students generally expect that they will utilize adaptive approach strategies in trying to solve the problem or obtain support from others, but those who had been victimized in the last month were more likely than those not involved in bullying, to predict that they would engage in maladaptive avoidance coping strategies if victimized in the future. Willingness to seek help was found to be enhanced by approach coping strategies, less aggressive attitudes, and lower perceptions of school bullying. Policy implications for efforts to encourage approach coping strategies in middle school students through educational interventions and school counseling are discussed.peer-reviewe

    Reading in Cape Verde: Instructional Practices and Teacher Attitudes

    Get PDF
    Given that no extensive study on reading instruction and reading attitudes has been carried out country-wide in The Republic of Cabo Verde, (a ten island archipelago off the western coast of Africa), educational practitioners and policy makers in that nation are left with a dearth of accurate information when making decisions surrounding these constructs in the classroom, in the universities, or in the policy rooms of that nation. In a 2007 article, Commeyras & Inyega published research on reading instruction in Kenya and encouraged researchers to follow their example, i.e. to locate all pertinent literature and to conduct a review of the state of reading education in each of the African countries “for the benefit of all… who are working to promote and improve reading on the African continent.” (p.278). In order to collect information on reading instruction and reading attitudes in Cabo Verde (CV), the author distributed surveys to all 2972 primary level Cape Verdean teachers employed in Cabo Verde at the time of the study, visited the nine inhabited islands, and interviewed 116 Cape Verdean teachers teaching in primary schools on those islands. Results from these interviews and the 1071 returned surveys indicate that Grades 1-3 teachers in Cabo Verde most often use a bottom-up approach to reading instruction and teachers in Grades 4-6 most often use a top-down approach. Information gleaned from the surveys and the interviews show that most CV primary level teachers hold to a strict page-by-page use of the government provided textbook, with very limited use of children’s storybooks, folktales, children’s own authored stories, or narrative text longer than a few sentences or a paragraph. While varying by island and other demographics, few families have novels or story books at home and few teachers have them in their classrooms. A high percentage of respondents indicate that the reading of storybooks either in the classroom or for pleasure outside of school is not common across Cabo Verde. Variations in responses are discussed, and recommendations for future research are presented

    Resilient random modulo cache memories for probabilistically-analyzable real-time systems

    Get PDF
    Fault tolerance has often been assessed separately in safety-related real-time systems, which may lead to inefficient solutions. Recently, Measurement-Based Probabilistic Timing Analysis (MBPTA) has been proposed to estimate Worst-Case Execution Time (WCET) on high performance hardware. The intrinsic probabilistic nature of MBPTA-commpliant hardware matches perfectly with the random nature of hardware faults. Joint WCET analysis and reliability assessment has been done so far for some MBPTA-compliant designs, but not for the most promising cache design: random modulo. In this paper we perform, for the first time, an assessment of the aging-robustness of random modulo and propose new implementations preserving the key properties of random modulo, a.k.a. low critical path impact, low miss rates and MBPTA compliance, while enhancing reliability in front of aging by achieving a better – yet random – activity distribution across cache sets.Peer ReviewedPostprint (author's final draft

    Material removal simulation for steel mould polishing

    Get PDF
    The surface finish of an injection mould influences the quality of the moulded polymer optic parts. In order to improve and control the surface finish of the mould it is important to be able to predict the material removal during the polishing process of this mould. The aim of this work is to predict the material removal during the polishing process, comparing the results obtained from polishing attempts on steel samples and the results obtained from a simulation model. A simulation model is developed with the abrasive wear Holm-Archard equation in ANSYS. This simulation model will help to eliminate the iterative trial and error polishing, therefore facilitating the steel mould production

    Analysis of the Bell-type inequalities on the IBM's open-access quantum computer

    Get PDF
    Treballs Finals de Grau de Física, Facultat de Física, Universitat de Barcelona, Curs: 2020, Tutor: Artur Polls MartíWe have performed quantum mechanical calculations of the Bell's and the Clauseer-Horne-Shimony-Holt inequalities for the Bell's states, showing that they are violated by these en-tangled states. We have also used the open-access IBM's quantum computer to prepare the Bell's states and to engineer the quantum circuits to experimentally measure the inequalities finding good agreement with the quantum calculations. We have also checked that product states, which are non-entangled, fulfill the inequalities

    PandeMedia: an annotated corpus of digital media for issue salience

    Get PDF
    Tese de mestrado, Ciência de Dados, 2022, Universidade de Lisboa, Faculdade de CiênciasThe ubiquitous sharing of information via the Internet has shifted much of society’s communication and information-seeking to digital spaces, such as news websites and social networks. As the Web represents a massive hub of information dissemination and discussion, it has also made possible the extraction of great amounts of highly detailed data to answer complex questions on human behaviour and preferences. This shift towards online life was exaggerated during the earlier phases of the COVID-19 pandemic, when many countries were in lockdown and in-person contact was severely limited. Therefore, in addition to the ongoing political, economic, and public health crisis, there were, on the one hand, new opportunities to study human behaviour thought digital data, including support for public health measures or trust in science, while, on the other hand, the deluge of new data and the fast-changing nature of the pandemic created new challenges to data science research, particularly the need to build quality pipelines for data extraction, collection, and future analysis. In this thesis, we focus on the important issue of salience of science and scientists during a health crisis and ask how to build a pipeline to select, store, extract and analyse longitudinal digital media data, that might allow for long-term study of media effects on salience. Therefore, this project has two main components: first, we showcase a data pipeline that makes use of media and social media data, available online, to build a media corpus of news and tweets with millions of documents, spanning billions of tokens, corresponding to more than two years of coverage and multiple media sources and topics; second, we show how this corpus can be leveraged to study the problem of salience, and use the visibility of science during the earlier phases of the COVID-19 pandemic as a case-study, comparing between salience in traditional versus social media. Overall, we present both a transparent and scaleable pipeline and a specific application of this approach, to tackle the question of how science visibility changed during this massive crisis. We use different media types and sources to potentiate text mining and other analytical purposes, offering a digital data-centric computational methodology to investigate questions in the social sciences.Os dados tomam, nos dias de hoje, um papel central no funcionamento das sociedades humanas. Com o desenvolvimento das tecnologias digitais, aliadas à ubíqua conetividade à Internet, em particular à World Wide Web (WWW), vivemos na chamada “era da informação” . Este paradigma da sociedade alicerça-se no fenómeno tipicamente referido como datafication, que se refere ao processo já enraizado e inerente à vida quotidiana através do qual a nossa atividade humana e formas de participação na sociedade são convertidas em dados. Esta produção em larga escala e em tempo real de dados funciona como o combustível para um amplo leque de aplicações nos mais variados domínios, desde a indústria, à investigação científica, à saúde, entre outros. Deste modo, testemunhamos uma crescente procura, e mesmo necessidade, de grandes coleções de dados, para alimentarem os diferentes setores de atividade. A Web representa talvez o maior volume de dados amplamente disponível ao público em geral. É nos websites e nas aplicações online que uma grande parte da população realiza diariamente um conjunto de tarefas e ações, sejam estas de caráter profissional ou lúdico. Os nossos hábitos de consumo de informação são assegurados predominantemente por estes espaços digitais, como as redes sociais ou as plataformas digitais de media tradicionais. Da mesma forma, as nossas interações sociais mediadas por dispositivos digitais são cada vez mais frequentes. A Web é, portanto, um reservatório de potenciais descobertas e de informação valiosa, que pode ser eventualmente extraída através da exploração dos dados que contém. Pela sua própria natureza, a Web levanta grandes desafios relativos às formas de capturar este valor presente nos dados digitais. Enormes volumes de dados podem ser rapidamente e facilmente identificados e extraídos. No entanto, não existe um processo de acréscimo de valor a estes dados sem que passem primeiramente por uma fase de organização. Para que seja possível extrair conhecimento dos dados obtidos, é necessário que estes apresentam a devida organização e qualidade. As maiores dificuldades nas metodologias de colheita e gestão de dados digitais passam por assegurar precisamente esta qualidade. Os dados da Web são naturalmente muito heterogéneos, visto resultarem da convergência de imensas fontes de informação. São também, na sua maioria, não estruturados, nomeadamente em formatos textuais que precisam de ser interpretados computacionalmente e compartimentalizados para facilitar futura análise. Muitas vezes, existem também dados em falta ou que apresentam uma qualidade tão baixa que são inviáveis para as finalidades em mente. Para além destes fatores intrínsecos aos dados em si, as questões que os rodeiam são também cruciais a considerar: a capacidade de detetar e localizar os dados pretendidos, a capacidade de aceder a estes dados, e o grau de disponibilidade destes dados, quando acessíveis. Deve também ter-se em consideração as questões éticas, de privacidade e de direitos de autor associadas aos dados passíveis de serem colecionados. ... automatizar processos de colheita para fontes e tipos de dados tão diversos quanto aqueles que se encontram disponíveis na Web. A pandemia causada pelo SARS-CoV-2, agente da COVID-19, representa uma crise de enormes proporções nas esferas política, económica e de saúde pública. Com a população do mundo restrita nos seus comportamentos e hábitos de modo a prevenir um agravamento da propagação do vírus, as pessoas recorreram ao digital como meio de comunicação e de obtenção e disseminação de informação (e desinformação). Assim, os media e as redes sociais foram relevantes pontos de convergência de uma grande parte da atenção do público, levantando questões importantes sobre a perceção pública dos especialistas científicos e sobre a saliência de certos tópicos de discussão. Num contexto mais alargado, podemos perspetivar a crise pandémica como um desafio no domínio das tecnologias da informação. No desenvolver desta emergência de saúde pública, temos vindo a ser confrontados com vários dos desafios presentes em data science: dados complexos, na escala de populações inteiras, a serem produzidos em tempo real por múltiplas fontes, com diferentes estruturas e formatos, e que sofrem uma rápida desatualização, requerem rápida análise, mas também processos de limpeza e melhoramento robustos. Todos estes fatores nos levam à nossa questão principal: numa crise que evolui tão rapidamente como a pandemia da COVID-19, como podemos construir uma pipeline que nos permita responder aos desafios da coleção e gestão de dados, de modo a criar um dataset de media digital para análise? Para extrair os dados necessários, recorremos a três fontes distintas: a plataforma open-source Media Cloud, a base de dados Internet Archive, e o API da rede social Twitter. Começámos por definir dezoito tópicos distintos, constituídos por palavras-chaves para uso na pesquisa pelos artigos e posts de media. Alguns tópicos são relacionados com a pandemia, enquanto outros funcionam como potenciais controlos positivos e negativos. A coesão semântica de cada tópico foi assegurada através do uso da base de dados léxica WordNet, que fornece significados e relações de palavras. Os metadados inicialmente obtidos foram processados e utilizados para identificar as fontes primárias dos dados de notícias. A partir de Web scraping, obtivemos dados brutos de artigos de media dos Estados Unidos da América disponíveis online, de Janeiro de 2019 a Janeiro de 2021 (inclusive). Estes foram subsequentemente transformados, passando por um processo de filtragem, limpeza e formatação, que é acompanhado de uma análise exploratória dos dados e visualização de dados para efeitos de diagnóstico do processo completo. Os dados da rede social foram extraídos através de um API próprio, especificando parâmetros para restringir resultados aos Estados Unidos e ao intervalo de tempo anteriormente definido. Os dados devidamente tratados foram posteriormente armazenados na base de dados desenhada e contruída para o propósito. A base de dados foi concebida com quatro tabelas, que incluem os dados de notícias, os dados da rede social Twitter, os metadados das pesquisas originais e metadados sobre as fontes das notícias, e feita através do sistema de gestão de bases de dados PostgreSQL. Para otimizar o desempenho das pesquisas no nosso conjunto de dados, procedemos à construção de índices para campos específicos, nomeadamente campos de texto, que são o nosso interesse principal. Utilizando as funcionalidades disponíveis, foram construídas representações vetoriais do texto das notícias, e a partir destas foi contruído um índice apropriado para pesquisa em dados textuais, que reduziu o tempo de pesquisa por um fator nas dezenas de milhares de vezes. Demonstramos ainda a pesquisa preliminar de dados longitudinais para efeitos de estudo da saliência de diferentes tópicos nos meios de comunicação. Foram aplicadas diferentes metodologias estatísticas de análise de séries temporais para responder às questões a abordar. Através do uso de médias móveis, os sinais foram clarificados para melhor visualização. Os testes de estacionaridade serviram de diagnóstico para as transformações a aplicar aos dados de modo a garantir a validade de análises posteriores. Com testes de causalidade de Granger, foi possível estabelecer relações entre séries temporais com base no poder preditivo e assim compreender a dinâmica de interação de diferentes media. Com recurso a técnicas de deteção de pontos de quebra, conseguimos defender a ideia de que existiram períodos de mudança dos padrões observados nos media que coincidem com o despoletar da crise pandémica. Assim, potenciada por uma pipeline customizada, robusta e transparente, conseguimos gerar um corpus de media, contendo milhões de documentos, que albergam milhares de milhões de tokens, correspondendo a um período de tempo superior a dois anos e múltiplas fontes de notícias e tópicos, permitindo assim potenciar finalidades de mineração de texto (text mining) e outros propósitos analíticos, oferecendo uma metodologia computacional centrada nos dados digitais para investigar este tipo de questões nas ciências sociais

    Mapeamento magnético para navegação robótica em ambientes interiores

    Get PDF
    Localization has always been one of the fundamental problems in the field of robotic navigation. The emergence of GPS came as a solution for localization systems in outdoor environments. However, the accuracy of GPS is not always sufficient and GPS based systems often fail and are not suited for indoor environments. Considering this, today there is a variety of real time localization technologies. It is quite common to see magnetic anomalies in indoor environments, which arise due to the presence of ferromagnetic objects, such as concrete or steel infrastructures. In the conventional ambient magnetic field based robotic navigation, which uses the direction of the Earth’s magnetic field to determine orientation, these anomalies are seen as undesirable. However, if the environment is rich in anomalies with sufficient local variability, they can be mapped and used as features for localization purposes. The work presented in this dissertation aims at demonstrating that it is possible to combine the odometric measurements of a mobile robot with magnetic field measurements, in order to effectively estimate the position of the robot in real time in an indoor environment. For this purpose, it is necessary to map the navigation space and develop a localization algorithm. First, the issues addressed to create a magnetic map are presented, namely data acquisition, employed interpolation methods and validation processes. Subsequently, the developed localization algorithm, based on a particle filter, is depicted, as well as the respective experimental validation tests.A localização sempre fui um dos problemas fundamentais a resolver no âmbito da navegação robótica. O surgimento do GPS veio a servir de solução para bastantes sistemas de localização em ambientes exteriores. No entanto, a exatidão do GPS nem sempre é suficiente e os sistemas baseados em GPS falham frequentemente e não são aplicáveis em ambientes interiores. À vista disso, hoje existe uma variedade de tecnologias de localização em tempo real. É bastante comum verificarem-se anomalias magnéticas em ambientes interiores, que provêm de objetos ferromagnéticos, como infraestruturas de betão ou aço. Na navegação robótica baseada na leitura do campo magnético convencional, que utiliza a direção do campo magnético terrestre para determinar a orientação, estas anomalias são vistas como indesejáveis. No entanto, se o ambiente for rico em anomalias com variabilidade local suficiente, estas podem ser mapeadas e utilizadas como caraterísticas para efeitos de localização. O trabalho apresentado nesta dissertação visa a demonstrar que é possível conjugar as medidas odométricas de um robô móvel com medições do campo magnético, para efetivamente localizar o robô em tempo real num ambiente interior. Para esse efeito, é necessário mapear o espaço de navegação e desenvolver um algoritmo de localização. Primeiramente, são apresentadas as questões abordadas para criar um mapa magnético, nomeadamente as aquisições de dados, os métodos de interpolação e os processos de validação. Posteriormente, é retratado o algoritmo de localização desenvolvido, baseado num filtro de partículas, assim como os respetivos testes experimentais de validação.Mestrado em Engenharia Eletrónica e Telecomunicaçõe

    Improving early design stage timing modeling in multicore based real-time systems

    Get PDF
    This paper presents a modelling approach for the timing behavior of real-time embedded systems (RTES) in early design phases. The model focuses on multicore processors - accepted as the next computing platform for RTES - and in particular it predicts the contention tasks suffer in the access to multicore on-chip shared resources. The model presents the key properties of not requiring the application's source code or binary and having high-accuracy and low overhead. The former is of paramount importance in those common scenarios in which several software suppliers work in parallel implementing different applications for a system integrator, subject to different intellectual property (IP) constraints. Our model helps reducing the risk of exceeding the assigned budgets for each application in late design stages and its associated costs.This work has received funding from the European Space Agency under Project Reference AO=17722=13=NL=LvH, and has also been supported by the Spanish Ministry of Science and Innovation grant TIN2015-65316-P. Jaume Abella has been partially supported by the MINECO under Ramon y Cajal postdoctoral fellowship number RYC-2013-14717.Peer ReviewedPostprint (author's final draft
    corecore